Résultats de la recherche pour "LAMA"
08:31

La période de crue du fleuve Jaune tombe en 2024 et 2025.

Les données de Jinshi du 27 novembre ont montré que la station hydrologique de la rivière Sanhu, en amont de 2 kilomètres du pont Lama Bay, dans le comté de Qingshui, en Mongolie intérieure, a connu une crue de 10% à 30% le 27ème jour, avec une date de première crue retardée de 7 jours par rapport à la moyenne annuelle. Le fleuve Jaune entre maintenant dans la période de débâcle de 2024 à 2025.
00:49
Selon IT House rapporté le 20 octobre, l’Université de Stanford a récemment publié le modèle de base de l’IA « indicateur de transparence », dont l’indicateur le plus élevé est Lama 2 de Meta, mais la « transparence » pertinente n’est que de 54%, de sorte que les chercheurs estiment que presque tous les modèles d’IA sur le marché « manquent de transparence ». Il est rapporté que la recherche a été dirigée par Rishi Bommasani, chef du Centre de recherche sur les modèles de base HAI (CRFM), et a étudié les 10 modèles de base les plus populaires à l’étranger. Rishi Bommasani estime que le « manque de transparence » a toujours été un problème auquel l’industrie de l’IA est confrontée, et en ce qui concerne les « indicateurs de transparence » spécifiques du modèle, IT House a constaté que le contenu d’évaluation pertinent tourne principalement autour du « droit d’auteur de l’ensemble de données d’entraînement du modèle », des « ressources informatiques utilisées pour entraîner le modèle », de la « crédibilité du contenu généré par le modèle », de la « capacité du modèle lui-même », du « risque que le modèle soit incité à générer du contenu préjudiciable », de la « vie privée des utilisateurs utilisant le modèle », etc., soit un total de 100 éléments. L’enquête finale a montré que Lama 2 de Meta était en tête avec 54 % de transparence, tandis que la transparence GPT-4 d’OpenAI n’était que de 48 % et que PaLM 2 de Google se classait cinquième avec 40 %.
05:13
Comme l’a rapporté The Decoder le 12 octobre, les chercheurs de Meta AI ont proposé une méthode basée sur les rapides, la chaîne de vérification (CoVe), qui peut réduire considérablement les problèmes d’hallucination dans les chatbots tels que ChatGPT. Avec CoVe, le chatbot répond d’abord aux invites, puis génère des questions basées sur ces sorties pour valider les déclarations. Ces « questions de validation » sont ensuite exécutées sous forme de nouveaux indices indépendants de la première entrée pour éviter que des messages d’erreur ne soient extraits de la première sortie. Enfin, le modèle linguistique valide la première entrée sur la base de faits collectés individuellement. Tous les tests ont été effectués à l’aide du lama 65 B. Les recherches de l’équipe de recherche ont montré qu’il y avait beaucoup moins d’erreurs contenues dans les réponses aux questions individuelles, ce qui a permis à CoVe d’améliorer considérablement le résultat final de l’invite. Pour les problèmes basés sur des listes, CoVe peut plus que doubler le taux de précision, ce qui réduit considérablement le taux d’erreur. Pour les scénarios de questions-réponses plus complexes, cette méthode peut encore améliorer le taux de précision de 23%. Cependant, pour un contenu plus long, l’équipe doit toujours vérifier les incohérences dans les réponses de validation.
  • 2
04:40
Selon le rapport de Jinshi du 19 septembre, le 21 septembre, lors de la Huawei Full Connection Conference 2023, le directeur général de Huawei et PDG de Huawei Cloud, Zhang Pingan, a annoncé que le service cloud Shengteng AI avait été officiellement lancé et que les entreprises pouvaient obtenir l'informatique IA avec un seul. cliquez sur accès.forcez. Dans le même temps, la zone Shengteng AI Cloud Service « Cent modèles et milliers d'États » a également été officiellement lancée. En plus du grand modèle Pangu, il sera également adapté à des centaines de grands modèles open source grand public de l'industrie, tels que LAMA, GLM, etc., pour prendre en charge les entreprises et les développeurs plus rapidement. Créez librement vos propres applications de grands modèles. Zhang Pingan a déclaré que la demande de puissance de calcul de l'IA a augmenté rapidement, mais que la densité de puissance des serveurs d'IA dépasse de loin celle des serveurs généraux. La consommation d'énergie d'une seule armoire est 6 à 8 fois supérieure à celle du passé, et un refroidissement liquide dédié Un système est requis pour la dissipation de la chaleur. Par conséquent, Huawei Cloud a déployé trois grands centres de puissance de calcul de l'IA à Gui'an, Ulanqab et Wuhu pour fournir aux entreprises une puissance de calcul de l'IA.
  • 1
  • 1
Charger plus
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)