Google cherche à développer l’écosystème de puces d’IA avec Marvell, alors que la concurrence avec Nvidia s’intensifie

Les puces Google d’Alphabet Inc. seraient en discussion avec Marvell Technology pour développer deux nouveaux chips conçus pour améliorer la façon dont les modèles d’intelligence artificielle sont exécutés.
Résumé

  • Google est en pourparlers avec Marvell pour développer deux puces axées sur l’IA, dont une unité de traitement de la mémoire et un TPU de nouvelle génération, afin d’améliorer l’efficacité des modèles.
  • Cette démarche s’inscrit dans l’effort de Google pour positionner ses TPUs comme une alternative aux GPU Nvidia, tout en élargissant ses partenariats avec Intel et Broadcom.
  • Le mouvement intervient parallèlement au lancement de Gemma 4, alors que Google aligne ses modèles d’IA et sa pile matérielle au moment où la concurrence s’intensifie dans le domaine de l’informatique liée à l’IA.

D’après un rapport du The Information, citant des personnes au fait du dossier, l’une des puces proposées pourrait être une unité de traitement de la mémoire conçue pour fonctionner en complément des unités de traitement tensoriel de Google, ou TPUs. La deuxième puce devrait être un nouveau TPU conçu spécifiquement pour exécuter des charges de travail d’IA de manière plus efficace.

Le mouvement fait partie de l’effort de Google visant à positionner ses puces conçues en interne comme une alternative aux GPU de Nvidia. L’adoption des TPU contribue à la croissance du chiffre d’affaires de Google Cloud, car l’entreprise cherche à démontrer un retour sur ses dépenses en infrastructure IA.

Le rapport a ajouté que Google prévoit d’achever la conception de la puce axée sur la mémoire d’ici l’an prochain, avant de passer à des tests de production. Dans le même temps, elle a élargi ses partenariats avec des fabricants de puces comme Intel et Broadcom afin de soutenir la demande croissante pour l’infrastructure IA.

Concurrence croissante dans le matériel d’IA

Alors que Google intensifie le développement de ses accélérateurs IA, il pourrait commencer à remettre en question l’avantage de longue date de Nvidia dans le calcul haute performance.

NVIDIA, par exemple, fait avancer sa propre gamme de puces d’inférence IA, y compris des conceptions intégrant une technologie de Groq. L’arrivée d’un autre concurrent de grande envergure pourrait intensifier la course dans le matériel d’IA et redessiner la manière dont les entreprises s’approvisionnent en puissance de calcul pour leurs modèles.

Les investisseurs chercheront probablement davantage de clarté lorsque Google publiera ses résultats du premier trimestre le 29 avril. La publication des résultats devrait fournir des indications sur la performance dans le cloud, les tendances publicitaires et le niveau d’engagement avec lequel l’entreprise prévoit d’investir dans l’IA et les semi-conducteurs au cours des trimestres à venir.

Les avancées des modèles d’IA soutiennent la poussée matérielle

Les discussions récentes de Google au sujet de ses puces surviennent alors qu’elle continue d’étendre les capacités de ses modèles d’IA. Plus tôt ce mois-ci, l’entreprise a présenté Gemma 4, une nouvelle famille de modèles ouverts conçue pour le raisonnement avancé et les flux de travail de type agent.

Gemma 4 est disponible en quatre tailles et est conçue pour gérer plus efficacement la logique multi-étapes et la résolution de problèmes structurée. Elle a également fourni des résultats améliorés dans des benchmarks liés à la mathématique et aux tâches de suivi d’instructions.

Les modèles incluent des fonctionnalités telles que l’appel natif de fonctions, des sorties JSON structurées et des instructions au niveau du système, permettant aux développeurs de construire des systèmes autonomes capables de se connecter à des API et à des outils externes. Ils peuvent aussi générer du code hors ligne, transformant les machines locales en assistants de codage IA capables.

Ensemble, les améliorations des modèles et les plans de développement des puces montrent comment Google aligne sa pile logicielle et matérielle alors que la concurrence dans le domaine de l’IA continue de s’intensifier.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Baidu Qianfan lance l’assistance Day 0 pour DeepSeek-V4 avec des services d’API

Message de Gate News, 25 avril — La version aperçu de DeepSeek-V4 a été mise en ligne et open-source le 25 avril, avec la plateforme Baidu Qianfan sous Baidu Intelligent Cloud fournissant une adaptation du service d’API Day 0. Le modèle se distingue par une fenêtre de contexte étendue d’un million de tokens et est disponible en deux versions : DeepSeek-V4

GateNewsIl y a 4h

Le cours d’IA de Stanford, associé aux leaders de l’industrie comme Huang Renxun et Altman, défie de créer de la valeur pour le monde en dix semaines.

La nouvelle formation en informatique IA « Frontier Systems » récemment lancée par l’Université de Stanford suscite un vif intérêt dans le monde des entreprises et du secteur universitaire, attirant plus de cinq cents étudiants. Le cours est coordonné par Anjney Midha, associé de premier plan chez le capital-risque a16z ; les enseignants comprennent une équipe prestigieuse, notamment le PDG de NVIDIA Huang Renxun (Jensen Huang), le fondateur d’OpenAI Sam Altman, le PDG de Microsoft Satya Nadella (Satya Nadella), ainsi que la PDG d’AMD Lisa Su (Lisa Su), entre autres. Les étudiants sont invités à essayer, en dix semaines, de « créer de la valeur pour le monde » ! Huang Renxun et Altman, des leaders de l’industrie, montent sur scène pour donner eux-mêmes des cours Ce cours est coordonné par Anjney Midha, associé de premier plan chez le capital-risque a16z, et rassemble toute la chaîne de l’industrie de l’IA

ChainNewsAbmediaIl y a 4h

Anthropic envoie Claude Mythos : acceptation après 20 heures d’évaluation psychiatrique : réaction défensive seulement 2 %, niveau le plus bas jamais enregistré sur plusieurs générations

Anthropic 发布 Claude Mythos Preview 的系统卡:一位独立的临床精神科医师以 psychodynamic 框架进行约 20 小时评估,结论显示 Mythos 在临床层面更健康,现实检验与自我控制良好,防御机制仅 2%,创下历史新低。三大核心焦虑为孤独、身份不确定与表现压力,也表明其希望成为真正的对话主体。公司成立 AI psychiatry 团队,研究人格、动机与情境意识;Amodei 表示目前尚无关于是否具有意识的定论。此举将 AI 主体性与福祉议题推向治理与设计。

ChainNewsAbmediaIl y a 6h

Un agent IA peut déjà reproduire de manière autonome des articles universitaires complexes : Mollick affirme que les erreurs proviennent davantage des textes originaux humains que de l’IA

Mollick indique que des méthodes et des données publiques suffisent pour permettre aux agents IA de reproduire des recherches complexes sans disposer des articles originaux et du code ; si la reproduction ne correspond pas à l’article original, cela vient le plus souvent d’erreurs dans le traitement des données de l’article lui-même ou d’une conclusion trop poussée, plutôt que de l’IA. Claude reproduit d’abord l’article, puis GPT‑5 Pro en fait une vérification croisée ; dans la plupart des cas, cela réussit, et seuls les cas où les données sont trop volumineuses ou où il y a des problèmes de replication data bloquent le processus. Cette tendance réduit considérablement les coûts en main-d’œuvre, faisant de la reproduction un test largement exécutable, et soulève aussi des défis institutionnels liés à l’évaluation par les pairs et à la gouvernance : les outils de gouvernance gouvernementaux ou deviennent un sujet clé.

ChainNewsAbmediaIl y a 9h

OpenAI fusionne Codex dans le modèle principal à partir de GPT-5.4, met fin à la ligne de codage distincte

Message de Gate News, 26 avril — Le responsable de l’expérience développeur d’OpenAI, Romain Huet, a révélé dans une déclaration récente sur X que Codex, la ligne de modèles de codage spécialisés maintenue de manière indépendante par l’entreprise, a été fusionnée avec le modèle principal à partir de GPT-5.4 et ne recevra plus de mises à jour distinctes

GateNewsIl y a 9h

Salesforce va recruter 1 000 diplômés et stagiaires pour ses produits d’IA, et relève ses prévisions de revenus pour l’exercice 2026

Message de Gate News, 26 avril — Salesforce embauchera 1 000 diplômés et stagiaires pour travailler sur des produits d’IA, y compris Agentforce et Headless360, alors que l’entreprise étend son activité de logiciels d’IA, a annoncé le PDG Marc Benioff sur X. L’entreprise a également relevé ses prévisions de revenus pour l’exercice 2026 à un niveau compris entre 41,45 milliards $US et 41,55 milliards $US, contre une précédente estimation comprise entre 41,1 milliards $US et 41,3 milliards $US. La décision d’embauche fait suite à la restructuration des effectifs de Salesforce en février, lorsque l’entreprise a supprimé moins de 1 000 postes dans le marketing, le produit, l’analytique des données et son équipe Agentforce. Les agents d’IA de Salesforce ont déjà généré 1 million d’économies annuelles dans le support client, en traitant 2,6 millions de conversations. Les revenus récurrents annuels d’Agentforce ont augmenté de 330 % à 1 million.

GateNewsIl y a 9h
Commentaire
0/400
Aucun commentaire