Le leader des grands modèles d'IA, Zhipu, présente ses excuses et annonce un plan de traitement et de compensation

Le 21 février, Zhipu a émis une lettre d’excuses pour le plan de codage GLM et a annoncé le plan de traitement et de rémunération.

Zhipu a indiqué que cette révision a principalement commis trois erreurs : une transparence insuffisante des règles, un rythme en niveaux de gris trop lent du GLM-5, et une conception approximative du mécanisme de mise à niveau pour les anciens utilisateurs.

Selon Zhipu, après la sortie du GLM-5, le trafic a dépassé les attentes, et le rythme d’expansion de l’entreprise n’a pas suivi, si bien que le GLM-5 a dû être progressivement ouvert dans l’ordre Max, Pro et Lite. Actuellement, les utilisateurs Max sont complètement ouverts, et les utilisateurs Pro aussi, mais pendant les périodes de pointe, ils peuvent rencontrer une limitation de courant due à une forte charge de cluster, et les utilisateurs Lite ouvrent progressivement la palette de gris pendant les périodes creuses après les fêtes. Pour les utilisateurs Lite et Pro concernés, la société prend en charge la demande de remboursement par vous-même.

Il convient de noter que le 20 février, le cours de l’action du leader des grands modèles IA, Zhipu (02513.HK), a clôturé à contre-courant, grimpant de 42,72 % à 725 HK$ en une seule journée, et que le cours de l’action a atteint un nouveau sommet, avec une valeur totale de 323,2 milliards HK$. Au cours des 43 jours suivant sa mise en bourse, le cours de l’action de la société a augmenté de 524 % par rapport au prix d’émission de 116,2 HK$.

Le 20 février, Kuaishou (01024. HK) a clôturé en baisse de 2,78 %, avec une valeur totale du marché de 289,4 milliards de HK$ ; JD.com (09618. HK) a clôturé en baisse de près de 2 %, avec une valeur totale sur le marché de 330,9 milliards de HK$ ; Ctrip (09961. HK) a clôturé en baisse de près de 1 %, avec une valeur marchande totale de 296,7 milliards de HK$ ; Groupe Baidu (09888. HK) a clôturé en baisse de 6,25 %, avec une capitalisation boursière totale de 354,8 milliards de HK$. Cela signifie que Zhipu figure parmi les premiers échelons de la capitalisation boursière du secteur TMT des actions de Hong Kong.

Le 12 février, Zhipu a officiellement lancé une nouvelle génération du modèle phare GLM-5, qui présente une amélioration moyenne des performances de plus de 20 % par rapport à la génération précédente en termes de programmation et de développement, et l’expérience réelle de programmation est proche du niveau de Claude Opus 4.5. Il a obtenu les meilleures performances dans le domaine de l’open source lors de trois évaluations d’agents, dont BrowseComp, MCP-Atlas et τ2-Bench.

Après la sortie du GLM-5, en raison de la pénurie d’approvisionnement, Zhipu a simultanément augmenté le prix du package GLM Coding Plan le lendemain, avec une hausse de prix de 30 % en Chine et une hausse de plus de 100 % dans la version internationale, devenant ainsi la première entreprise native d’IA en Chine à augmenter le prix des services de commercialisation de grands modèles. Le nouveau package a été épuisé dès son lancement, établissant un nouveau record de l’industrie pour le modèle national de programmation IA à épuiser.

Fondée en 2019, Zhipu est née du Laboratoire d’ingénierie du savoir de l’Université Tsinghua (KEG, l’un des principaux laboratoires d’intelligence artificielle de Chine). Tang Jie, professeur au département d’informatique de l’université Tsinghua, a été le scientifique en chef, Zhang Peng, un docteur en ingénierie de premier plan à l’université Tsinghua, a été PDG et directeur général, et Liu Debing, ancien élève de l’université Tsinghua, a été président.

L’entreprise est connue sous le nom de « OpenAI de Chine » et est le principal concurrent d’OpenAI. Fin 2020, Zhipu a développé l’architecture de pré-formation GLM ; En 2021, le modèle GLM-10B à 10 milliards de paramètres a été entraîné, et la même année, l’architecture MoE a été utilisée pour entraîner avec succès un modèle parcimonieux convergent de milliers de milliards. En 2022, le GLM-130B, un modèle bilingue de pré-formation à très grande échelle de 100 milliards de niveaux, a été lancé en open source, devenant ainsi le seul grand modèle grand public mondial en Asie sélectionné pour l’évaluation de Stanford en 2022.

Le texte intégral des excuses de Zhipu :

(Source de l’article : Daily Economic News)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)