Selon le Financial Times britannique, OpenAI a considérablement réduit le temps et les ressources alloués pour tester la sécurité de son puissant modèle d'intelligence artificielle, ce qui a suscité des inquiétudes quant à la précipitation de son lancement sans garanties suffisantes. Par rapport à il y a quelques mois, les employés et les équipes tierces n'ont récemment eu que quelques jours pour "évaluer" le dernier grand modèle de langage d'OpenAI. Selon huit personnes connaissant le processus de test d'OpenAI, les tests de cette start-up sont devenus moins approfondis, n'ayant pas suffisamment de temps et de ressources consacrés à l'identification et à la réduction des risques, car cette start-up, dont la capitalisation boursière est de 300 milliards de dollars, est sous pression pour publier rapidement de nouveaux modèles et maintenir son avantage concurrentiel. Des sources ont révélé qu'OpenAI s'efforce de lancer son nouveau modèle o3 dès la semaine prochaine, laissant à certains testeurs moins d'une semaine pour effectuer des contrôles de sécurité. Auparavant, OpenAI permettait plusieurs mois pour les tests de sécurité.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
3 J'aime
Récompense
3
2
Partager
Commentaire
0/400
UnauthenticatedUsers
· 04-11 05:05
Afficher la traductionRépondre0
4alone
· 04-11 05:04
La procureure générale de l'État de New York, Letitia James, a appelé à un renforcement de la réglementation des Cryptoactifs et s'est opposée à leur intégration dans les plans de retraite américains. Elle estime que les Cryptoactifs n'ont aucune Valeur intrinsèque, présentent une grande Fluctuation et ne conviennent pas pour l'épargne retraite. James s'inquiète également que les Cryptoactifs non réglementés pourraient mettre en péril la sécurité nationale, affaiblir la position du dollar et nuire à la stabilité des marchés financiers, et a proposé de renforcer les exigences de réglementation pour les émetteurs de stablecoins. (Cointelegraph)
Médias britanniques : OpenAI a réduit le temps de test de sécurité des modèles d'IA.
Selon le Financial Times britannique, OpenAI a considérablement réduit le temps et les ressources alloués pour tester la sécurité de son puissant modèle d'intelligence artificielle, ce qui a suscité des inquiétudes quant à la précipitation de son lancement sans garanties suffisantes. Par rapport à il y a quelques mois, les employés et les équipes tierces n'ont récemment eu que quelques jours pour "évaluer" le dernier grand modèle de langage d'OpenAI. Selon huit personnes connaissant le processus de test d'OpenAI, les tests de cette start-up sont devenus moins approfondis, n'ayant pas suffisamment de temps et de ressources consacrés à l'identification et à la réduction des risques, car cette start-up, dont la capitalisation boursière est de 300 milliards de dollars, est sous pression pour publier rapidement de nouveaux modèles et maintenir son avantage concurrentiel. Des sources ont révélé qu'OpenAI s'efforce de lancer son nouveau modèle o3 dès la semaine prochaine, laissant à certains testeurs moins d'une semaine pour effectuer des contrôles de sécurité. Auparavant, OpenAI permettait plusieurs mois pour les tests de sécurité.