Résultats de la recherche pour "GPT"
2026-04-02
02:29

La plateforme d’échange de 29 jetons retirés a été mise hors ligne et un rachat a été effectué pour les utilisateurs éligibles.

Nouvelles de Gate, message selon l’annonce officielle de Gate Gate a retiré de la liste les marchés de trading des 29 jetons suivants : POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST. Après une nouvelle évaluation par la plateforme, ces jetons ne répondent pas aux critères d’activation du trading. Pour les utilisateurs ayant soumis un formulaire et répondant aux exigences, Gate a déposé le montant du rachat sur leur compte. Après le retrait, les utilisateurs peuvent continuer à utiliser le portefeuille Gate pour stocker leurs actifs ; le calendrier exact de retrait des fonctionnalités du portefeuille et les détails des opérations seront communiqués ultérieurement.
Plus
10:00

Gate a retiré 29 marchés d’échange de jetons, dont POWERLOOM et ZAP, et a procédé au rachat pour les utilisateurs répondant aux critères.

Actualités Gate : selon l’annonce officielle de Gate, Gate a retiré de la cotation les marchés de trading de 29 tokens, notamment POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST, etc. Après évaluation, les tokens mentionnés ci-dessus ne remplissent pas les critères permettant l’ouverture des transactions. Gate a procédé au rachat des utilisateurs détenant ces tokens ; pour les utilisateurs répondant aux exigences, le montant du rachat a été crédité sur leur compte Gate. Après le retrait, les utilisateurs peuvent continuer à utiliser Gate comme portefeuille pour stocker des actifs des devises susmentionnées. Le calendrier précis de retrait des fonctionnalités du portefeuille ainsi que les détails des opérations seront communiqués ultérieurement par une annonce officielle.
Plus
05:07

20B petit modèle de recherche égalant les capacités de GPT-5 et Opus : modèle de recherche Agent open source de la base de données vectorielle Chroma Context-1

L'open source vector database Chroma a publié Context-1, un modèle de recherche d'agent intelligent de 20 milliards de paramètres pour la recherche multi-tours. Ce modèle utilise une technique de contexte auto-édité et est entraîné sur plusieurs tâches grâce à l'apprentissage par renforcement et à un mécanisme de cours, montrant des performances exceptionnelles, en particulier dans les domaines du web, de la finance et du droit, et il a également démontré des capacités de recherche interdomaines dans le domaine des e-mails.
Plus
04:22

L'« moment GPT » de l'IA incarnée est-il proche ? Axis Robotics annonce la fin des tests et le lancement imminent sur la chaîne Base

> Source de l'article : Axis Axis Robotics restructure la diversité des données et les méthodes de production à grande échelle de l'intelligence incarnée en adoptant une stratégie Simulation-First. En 2025, plusieurs trajectoires technologiques du secteur robotique convergent rapidement : la modernisation commerciale de la chaîne d'approvisionnement du matériel incarné ouvre pour la première fois des possibilités réalistes de déploiement à grande échelle pour les prototypes autrefois coûteux ; les modèles Vision-Langage-Action (VLA) dotent les robots d'un « cerveau » capable de comprendre la sémantique, de raisonner et de planifier ; et la pyramide de données multi-niveaux, allant du préalable vidéo aux synthèses simulées, alimente continuellement l'évolution constante de l'intelligence incarnée. Cependant, le secteur fait toujours face à un goulot d'étranglement fondamental : les données. Comparée aux grands modèles de langage et à la conduite autonome, l'intelligence incarnée souffre toujours d'une pénurie massive de données lors de la phase de préentraînement.
Plus
01:39

L'outil de programmation IA Cursor publie le modèle Composer 2, dont la performance dépasse Opus 4.6, avec un prix réduit à 14% de la génération précédente

Cursor a lancé le troisième modèle de programmation générationnel Composer 2 le 20 mars, avec une baisse drastique des prix à 0,50 dollar par million de tokens en entrée et 2,50 dollars en sortie, tout en lançant une version rapide. Composer 2 surpasse la génération précédente dans plusieurs tests de référence, mais reste inférieur à GPT-5.4, les améliorations provenant principalement de la poursuite du pré-entraînement du modèle de base et de l'apprentissage par renforcement. Le modèle est réservé à un usage exclusif chez Cursor, tandis que sa maison mère Anysphere atteint une valorisation de 29,3 milliards de dollars.
Plus
00:02

OpenAI publie GPT-5.4 mini et nano, avec une tarification jusqu'à 4 fois supérieure à la génération précédente

OpenAI a lancé le 18 mars les nouveaux modèles GPT-5.4 mini et GPT-5.4 nano, ciblant les scénarios multimodaux et de programmation, avec une augmentation significative des tarifs. GPT-5.4 mini affiche des performances supérieures dans les tests de référence en programmation, prend en charge les contextes à grande échelle et les opérations polyfonctionnelles. De plus, les utilisateurs de la version gratuite de ChatGPT bénéficieront également de la nouvelle fonctionnalité de raisonnement.
Plus
15:32

Rakuten publie le grand modèle linguistique japonais Rakuten AI 3.0, suscitant une controverse en raison de soupçons d'architecture basée sur DeepSeek

Le groupe Rakuten a lancé le 17 mars un grand modèle de langage spécialisé en japonais, Rakuten AI 3.0, affirmant qu'il dépasse GPT-4o dans plusieurs tests de langue japonaise. Cependant, les internautes ont découvert que le modèle pourrait être développé sur la base de DeepSeek et ont remis en question son parti pris potentiel envers la Chine ainsi que l'authenticité de sa technologie de recherche et développement indépendante, suscitant des débats.
Plus
08:53

Rakuten publie le modèle Rakuten AI 3.0, les fichiers de configuration révèlent une architecture sous-jacente DeepSeek V3

Le groupe Rakuten a publié le 17 mars un modèle d'IA haute performance nommé Rakuten AI 3.0, doté de 671 milliards de paramètres, optimisé pour le japonais, et affirmant surpasser GPT-4o dans plusieurs benchmarks. Ce modèle est open source gratuit sous la licence Apache 2.0, basé sur un ajustement du modèle DeepSeek V3, avec le soutien en puissance de calcul du gouvernement japonais.
Plus