Résultats de la recherche pour "DGX"
04:02

Jen-Hsun Huang : les ordinateurs personnels d'IA sont désormais pleinement en production.

Jin10 données 19 mai, le PDG d'NVIDIA, Jen-Hsun Huang, a déclaré que notre ordinateur personnel d'IA, le DGX Spark, est désormais en production complète et sera prêt dans quelques semaines. Nous avons également collaboré avec des fabricants d'ordinateurs du monde entier pour lancer le système de calcul personnel DGX "AI first", le DGX Spark étant équipé de la super puce GB10 d'NVIDIA et de cœurs tensoriels. Nous avons également lancé DGX.
Plus
01:00

Les commandes de Nvidia H200 commenceront à être livrées au T3 et le B100 devrait être livré au premier semestre de l'année prochaine.

Selon les informations de données Jin10 du 3 juillet, les puces amont de la carte graphique NVIDIA AI H200 sont entrées en production en série à partir de la fin du deuxième trimestre, et un grand nombre de livraisons sont prévues après le troisième trimestre. Cependant, la mise sur le marché de la plate-forme Blackwell de NVIDIA a été avancée d'au moins un à deux trimestres, ce qui a affecté la volonté des clients terminaux d'acheter H200. La chaîne d'approvisionnement a indiqué que les commandes clients en attente d'expédition étaient toujours principalement concentrées sur la structure HGX de l'H100, avec une proportion limitée de H200. Les H200 produits en série au troisième trimestre seront principalement destinés au DGX de NVIDIA.
Plus
08:19
Pour aider les clients à utiliser plus efficacement leurs ressources informatiques d’IA, NVIDIA a conclu un protocole final pour l’acquisition du fournisseur de logiciels de gestion et d’orchestration de la charge de travail basé sur Kubernetes, Run :AI, pour un montant non divulgué. Nvidia prévoit de maintenir le modèle commercial actuel de Run :ai en place pour le moment, et les employés de Run :ai rejoindront le centre de R&D de Nvidia en Israël. Les clients NVIDIA DGX et DGX Cloud bénéficieront des fonctionnalités fournies par Run :AI pour leurs charges de travail d’IA, en particulier les grands déploiements de modèles de langage. Aujourd’hui, les solutions de Run :AI sont intégrées à des produits tels que NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, les conteneurs NGC et le logiciel d’entreprise NVIDIA AI. En outre, le média israélien Calcalist s’attend à ce que l’acquisition atteigne environ 700 millions de dollars.
08:06

L’acquisition par Nvidia du fournisseur de logiciels d’orchestration GPU Run :ai

Le 25 avril, NVIDIA a conclu un accord définitif sur l’acquisition de Run :ai, un fournisseur de logiciels de gestion et d’orchestration de la charge de travail basé sur Kubernetes, et le montant spécifique de l’acquisition n’a pas été divulgué. Nvidia prévoit de conserver le modèle commercial actuel de Run :ai pour le moment, les employés de Run :ai rejoignant le centre de R&D de Nvidia en Israël. En outre, les clients NVIDIA DGX et DGX Cloud bénéficieront des fonctionnalités fournies par Run :ai pour leurs charges de travail d’IA, en particulier les grands déploiements de modèles de langage. Actuellement, les solutions de Run :AI ont été intégrées à des produits tels que NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, les conteneurs NGC et le logiciel d’entreprise NVIDIA AI.
Plus
07:58
Jeton Jiejie a rapporté : Le 25 avril, il a été rapporté que Nvidia (NVIDIA) avait conclu un protocole final sur l’acquisition de Run :ai, un fournisseur de logiciels de gestion et d’orchestration de la charge de travail basés sur Kubernetes, et le montant spécifique de l’acquisition n’a pas été divulgué. Nvidia prévoit de conserver le modèle commercial actuel de Run :ai pour le moment, les employés de Run :ai rejoignant le centre de R&D de Nvidia en Israël. En outre, les clients NVIDIA DGX et DGX Cloud bénéficieront des fonctionnalités fournies par Run :ai pour leurs charges de travail d’IA, en particulier les grands déploiements de modèles de langage. Actuellement, les solutions de Run :AI ont été intégrées à des produits tels que NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, les conteneurs NGC et le logiciel d’entreprise NVIDIA AI.
07:57
Le 25 avril, NVIDIA a conclu un accord définitif sur l’acquisition de Run :ai, un fournisseur de logiciels de gestion et d’orchestration de la charge de travail basé sur Kubernetes, et le montant spécifique de l’acquisition n’a pas été divulgué. Nvidia prévoit de conserver le modèle commercial actuel de Run :ai pour le moment, les employés de Run :ai rejoignant le centre de R&D de Nvidia en Israël. En outre, les clients NVIDIA DGX et DGX Cloud bénéficieront des fonctionnalités fournies par Run :ai pour leurs charges de travail d’IA, en particulier les grands déploiements de modèles de langage. Actuellement, les solutions de Run :AI ont été intégrées à des produits tels que NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, les conteneurs NGC et le logiciel d’entreprise NVIDIA AI.
07:25
Le 25 avril, selon Tech In Asia, le fabricant américain de puces Nvidia a déclaré dans un communiqué que la société acquisition la start-up israélienne d’intelligence artificielle Run :ai. Bien que Nvidia n’ait pas divulgué la valeur de l’acquisition, le média israélien Calcalist s’attendait à ce que le chiffre soit d’environ 700 millions de dollars. Exécution : L’IA développe des logiciels pour aider les entreprises à gérer plus efficacement leurs besoins informatiques. Il fonctionne sur Kubernetes, un système Open Source conçu par Google qui automatise le déploiement, la mise à l’échelle et la gestion des logiciels. Dans un communiqué, Nvidia a cité les déploiements d’IA « de plus en plus complexes » des clients comme raisonnement derrière l’accord. Avec cette acquisition, le fabricant de puces vise à faciliter l’accès et la gestion des solutions GPU pour les clients, en s’attendant à une meilleure utilisation du GPU, à une meilleure gestion de l’infrastructure GPU et à une plus grande flexibilité avec les systèmes à architecture ouverte. Nvidia prévoit de maintenir le modèle commercial actuel de Run :ai en place pour le moment, les employés de Run :ai rejoignant le centre de R&D du fabricant de puces en Israël, qui compte environ 3 000 employés. Les prochaines offres de Run :ai seront également incluses dans le DGX Cloud de Nvidia, une plate-forme d’IA qui s’associe aux principaux fournisseurs de cloud pour servir les développeurs d’entreprise.
02:56
Nvidia a déclaré que la société de biotechnologie Amgen construira des modèles d’IA pour analyser l’un des plus grands ensembles de données humaines au monde, qui seront entraînés sur le DGX Superpod de Nvidia, une plate-forme de centre de données complète, comme l’a rapporté Kim Shi le 9 janvier.
06:26
Dell Technologies a récemment annoncé qu’elle aiderait ses clients à atteindre des performances d’IA et d’IA générative plus rapides en introduisant une nouvelle technologie de stockage de données d’entreprise et en la validant avec l’infrastructure Nvidia DGX SuperPod AI, comme l’a rapporté Webmaster’s Home le 11 décembre. En ce qui concerne le besoin de hautes performances et d’efficacité dans le stockage de l’IA, le système de stockage de fichiers distribué Dell PowerScale a introduit de nouvelles avancées. Grâce aux améliorations apportées au logiciel PowerScale OneFS, les entreprises peuvent préparer, former, optimiser et déduire des modèles d’IA plus rapidement. Le nouveau système de stockage 100 % flash PowerScale, basé sur la dernière génération de serveurs Dell PowerEdge, offrira aux clients des performances jusqu’à 2 fois plus rapides en lecture et en écriture en streaming. PowerScale offrira également de nouvelles fonctionnalités de mise à l’échelle intelligente qui améliorent les performances des nœuds de calcul individuels et améliorent l’utilisation du GPU, permettant un débit de stockage plus rapide pour l’entraînement, les points de contrôle et l’inférence de l’IA.
07:33
Selon le « Science and Technology Innovation Board Daily », le 21 novembre, heure locale, Nvidia a annoncé un partenariat avec Genentech, une filiale de Roche Pharmaceuticals, pour mener une recherche sur une plate-forme d’IA afin d’accélérer la découverte et le développement de médicaments. Tous deux construiront des modèles d’IA sur NVIDIA DGX Cloud. Genentech prévoit également d’utiliser NVIDIA BioNeMo, une plate-forme d’IA générative pour la découverte de médicaments, afin de permettre aux biotechs de personnaliser les modèles à grande échelle et d’intégrer l’interface de programmation d’applications cloud BioNeMo directement dans les flux de travail de découverte de médicaments informatiques.
  • 1
04:22
BABBITT, 7 nov. (GLOBE NEWSWIRE) -- Nvidia a annoncé qu’elle s’associait au fournisseur de services de communication Amdocs pour optimiser les grands modèles de langage (LLM) afin d’accélérer l’adoption de l’IA générative dans l’industrie des télécommunications, qui représente 1,7 billion de dollars. Les deux sociétés personnaliseront des LLM d’entreprise fonctionnant sur le calcul accéléré NVIDIA dans le cadre du cadre amAIz d’Amdocs, permettant aux fournisseurs de services de communication de déployer efficacement des cas d’utilisation de l’IA générative dans des entreprises allant de l’expérience client à la configuration du réseau. Amdocs utilisera le supercalculateur NVIDIA DGX Cloud AI et le logiciel NVIDIA AI Enterprise pour prendre en charge des stratégies d’adoption flexibles et aider à garantir que les fournisseurs de services peuvent utiliser des applications d’IA générative simplement et en toute sécurité. Selon les rapports, les clients d’Amdocs comprennent plus de 350 des plus grandes entreprises de télécommunications et de médias du monde, dont 27 des 30 plus grands fournisseurs de services au monde.
  • 1
08:55
Nvidia a lancé le supercalculateur cloud DGX le plus avancé sur Oracle Cloud, fournissant de puissantes unités de traitement graphique pour les charges de travail telles que l’IA générative, comme l’a rapporté Webmaster House le 20 octobre. Ce service de supercalcul d’IA hébergé dans le cloud fournit aux clients tout ce dont ils ont besoin pour former rapidement l’IA générative et d’autres applications, basées sur la plate-forme DGX de Nvidia avec un accès à plusieurs cadres d’IA et modèles pré-entraînés. Une université de New York a utilisé l’IA DGX Cloud de Nvidia comme base de son initiative AI Plus, qui stimule l’éducation et la recherche dans de multiples domaines, notamment la cybersécurité, les prévisions météorologiques, l’analyse des données de santé, etc.
10:56
Selon Jinshi News du 8 septembre, NVIDIA et Reliance Group ont conclu un partenariat pour promouvoir l'intelligence artificielle en Inde. Les deux parties développeront conjointement une IA linguistique de base à grande échelle ; selon le partenariat, NVIDIA fournira à Reliance Group l'accès à NVIDIA. Superpuce GH200 Grace Hopper et autorisations pour DGX Cloud.
  • 1
01:34
Selon le rapport du "Kechuang Board Daily" du 23 août, la location de puissance de calcul est un mode de location de ressources informatiques par l'intermédiaire de fournisseurs de services de cloud computing. Song Jiaji, analyste chez Guosheng Securities, estime que la puissance de calcul en nuage adopte la méthode de « diviser la le tout en parties". La méthode responsabilise toutes les parties de la chaîne industrielle et est durable. Du côté de la demande, à mesure que la puissance de calcul requise pour le modèle à grande échelle AIGC augmente, le potentiel du marché de la location de puissance de calcul de l'IA augmente. Du côté de l'offre, les fabricants de puissance de calcul coopèrent depuis longtemps avec les plates-formes cloud.Avec le lancement du cloud NVIDIA DGX, la puissance de calcul de l'IA dans le cloud est entrée dans une nouvelle étape. Les principales ressources de la location de puissance de calcul résident dans les fonds, les clients et les capacités d'exploitation et de maintenance. Trois types d'entreprises dominent : les avantages du premier arrivé et les commandes en cours ; la capacité à exploiter et à maintenir la puissance de calcul de l'IA ; la force.
09:15

DeepL déploie NVIDIA DGX SuperPOD pour étendre ses capacités LLM

Le service allemand de traduction automatique neuronale DeepL a annoncé avoir déployé la plate-forme d'infrastructure de centre de données AI de NVIDIA DGX SuperPOD dans l'un de ses centres de données en Suède pour étendre ses capacités LLM. Selon DeepL, il s'agit "du premier déploiement commercial de cette ampleur en Europe". Les benchmarks montrent une performance de 21,85 PFlop/s, qui se classe 26e au niveau mondial et 8e en Europe. Composé de 68 systèmes NVIDIA DGX H100, le NVIDIA DGX SuperPOD aidera DeepL à former plus rapidement de grands modèles de langage et à développer de nouveaux outils de communication IA pour les marchés mondiaux.
Plus
15:16
Selon un rapport de The Decoder du 2 août, DeepL, un service de traduction automatique neuronale basé en Allemagne, a annoncé qu'il avait déployé la plate-forme d'infrastructure de centre de données AI de Nvidia DGX SuperPOD dans l'un de ses centres de données en Suède pour étendre ses capacités LLM. Selon DeepL, il s'agit "du premier déploiement commercial de cette ampleur en Europe". Les benchmarks montrent une performance de 21,85 PFlop/s, qui se classe 26e au niveau mondial et 8e en Europe. Composé de 68 systèmes NVIDIA DGX H100, le NVIDIA DGX SuperPOD aidera DeepL à former plus rapidement de grands modèles de langage et à développer de nouveaux outils de communication IA pour les marchés mondiaux.
03:32
Selon un rapport du "Kechuang Board Daily" du 3 juillet, l'analyste de Raymond James (Ruijie Financial) Srini Pajjuri a déclaré que "l'IA en tant que service" du cloud DGX de Nvidia est une opportunité majeure à long terme et devrait devenir une entreprise à grande échelle à l'avenir. Nvidia dispose de modèles d'intelligence artificielle que les entreprises peuvent exploiter, et les entreprises peuvent utiliser pour personnaliser de grands modules de langage contenant des données spécifiques à l'entreprise. En outre, l'analyste a souligné que Nvidia lancera des produits liés à l'IA plus tard cette année. Après s'être entretenu avec Simona Jankowski, responsable des relations avec les investisseurs et de la finance stratégique de l'entreprise, il estime que l'adoption de l'IA générative continuera de stimuler la forte croissance de l'entreprise au cours des prochains trimestres.
13:34
Odaily Planet Daily News Le 28 mai, heure de l'Est, le fondateur et PDG de NVIDIA, Jensen Huang, a annoncé dans son discours NVIDIA Computex 2023 que le moteur d'IA générative NVIDIA DGX GH200 est désormais en production de masse. Le site Web officiel de NVIDIA montre que NVIDIA DGX GH200 est un nouveau type de supercalculateur d'IA qui connecte entièrement 256 super puces NVIDIA Grace Hopper en un seul GPU et prend en charge la formation de grands modèles d'IA à mille milliards de paramètres. Capable de gérer les systèmes de recommandation à grande échelle, l'IA générative et l'analyse des graphiques, et de fournir une évolutivité linéaire pour les modèles d'IA géants. "Il n'est pas nécessaire de stocker des données dans de nombreux modules. DGX GH200 est plus facile à former de grands modèles de langage et des systèmes de recommandation d'apprentissage en profondeur", a déclaré Huang Renxun. (Réseau des valeurs mobilières de Chine)
05:31

Nvidia lance davantage de produits d'intelligence artificielle pour mieux saisir le boom de l'IA

Le PDG de Nvidia, Jensen Huang, a annoncé un lot de nouveaux produits et services liés à l'IA, dans l'espoir de capitaliser davantage sur cet engouement. Les produits nouvellement lancés sont très variés, y compris une plate-forme de supercalculateur d'IA appelée DGX GH200, qui aidera les entreprises technologiques à créer un "successeur" à ChatGPT, a déclaré Huang. Microsoft, Meta Platforms et Google devraient être les premiers utilisateurs de l'appareil. Nvidia travaillera avec le groupe WPP pour utiliser l'IA et les mondes virtuels afin de réduire le coût de la production publicitaire. En outre, la société se prépare à lancer un service réseau conçu pour accélérer la transmission d'informations dans les centres de données. La société a même l'intention de changer la façon dont les gens interagissent avec les jeux vidéo : un service appelé Nvidia ACE for Games utilisera l'IA pour animer les personnages d'arrière-plan, leur donnant plus de personnalité. La multitude de produits souligne la transformation de Nvidia d'un fabricant de puces graphiques informatiques en une entreprise au centre d'un boom de l'IA.
Plus
Charger plus
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)