Anthropic CEO Dario Amodei a lancé une bombe lors d’un événement au Council on Foreign Relations aux États-Unis en mars dernier : « Je pense qu’en trois à six mois, l’IA sera responsable de l’écriture de 90 % du code. Et qu’en douze mois, nous pourrions entrer dans un monde où une IA écrit presque tout le code. »
Cette phrase a déclenché un énorme débat dans la communauté technique. Un an plus tard, qu’en est-il dans la réalité ?
Le délai de la prédiction est dépassé, mais l’écart demeure
Six mois après, lors d’un échange avec le CEO de Salesforce, Marc Benioff, Amodei a réaffirmé : « Chez Anthropic, et dans les nombreuses entreprises avec lesquelles nous collaborons, (90 %) s’est effectivement réalisé » — mais après vérification, des chercheurs indépendants estiment que cette affirmation n’est pas exacte. Si l’on ne compte que le code soumis officiellement, la proportion générée par l’IA en interne chez Anthropic pourrait être proche de 50 % ; si l’on inclut un code plus large comme des scripts à usage unique, le chiffre se rapproche davantage de 90 %.
Le CEO de Google, Sundar Pichai, a révélé que, chez Google, plus de 25 % du code source serait généré par l’IA ; le CEO de Microsoft, Satya Nadella, a quant à lui indiqué que près de 30 % du code chez Microsoft est écrit par l’IA. Les chiffres progressent, mais ils restent encore loin des « 90 % ».
La réaction réelle des ingénieurs : « Mon travail, c’est de remettre de l’ordre dans le désastre »
En réponse à la prédiction d’Amodei, un ingénieur senior d’un moteur de jeu s’est exprimé sans détour : à ce stade, la qualité du code généré par l’IA pose de problèmes fondamentaux — « le code produit par l’IA est une version que même un meilleur développeur ne choisirait jamais d’écrire », car l’IA a tendance à empiler des couches d’abstraction superflues, au lieu de trouver une solution plus concise.
Un autre ingénieur, vu sous l’angle des réalités en entreprise, a également refroidi l’enthousiasme : toute société qui existe depuis plus de trois ans dispose presque toujours d’un système hérité rempli de connaissances tacites, sans documentation, avec des conventions de nommage chaotiques — « cette bibliothèque de fonctions écrite par l’ingénieur parti il y a dix ans, l’IA ne la gère tout simplement pas ».
Cette vision est appuyée par des données. L’enquête développeurs Stack Overflow 2025 montre que plus de six sur dix (61,7 %) des développeurs ont des inquiétudes éthiques et en matière de cybersécurité concernant le code généré par l’IA, et que les développeurs ne font globalement pas confiance à l’exactitude de ses sorties, nécessitant souvent des corrections manuelles.
Les obstacles structurels oubliés : les banques, la santé, le gouvernement ne peuvent tout simplement pas
Un autre angle mort à surveiller dans la discussion concerne les contraintes réglementaires. 84 % des développeurs indiquent utiliser ou prévoir d’utiliser des outils d’IA, mais il s’agit d’une « amélioration généralisée », et non d’une automatisation complète. Dans les secteurs fortement réglementés comme la banque, l’aérospatial, la santé ou la finance, beaucoup interdisent encore explicitement ou limitent fortement l’usage des grands modèles de langage pour traiter du code central, pour des raisons liées à la confidentialité concurrentielle et aux risques de conformité.
Le système administratif de la Social Security Administration des États-Unis nécessite, selon des informations, la coordination de 3 600 programmes indépendants, dont une grande partie écrite en langage COBOL. La conversion de cette infrastructure héritée est extrêmement complexe, loin d’être quelque chose qu’un grand modèle de langage peut reprendre facilement.
La contradiction logique de la logique commerciale de la Silicon Valley
Des commentateurs ont pointé une logique ironique : « Si vous êtes vraiment capable de faire générer à l’IA tout le code, pourquoi la vendre à d’autres ? Vous devriez l’utiliser directement pour développer tous vos produits, en monopolisant tous les marchés. »
En d’autres termes, le modèle commercial d’Anthropic dépend lui-même du fait que les ingénieurs continuent à acheter ses outils — ce qui rend, dans une certaine mesure, la thèse selon laquelle « l’IA va bientôt rendre les ingénieurs au chômage » quelque peu contradictoire. L’ingénieur est le client, réduire le nombre de clients n’est pas une bonne affaire.
La prédiction n’a pas totalement échoué, mais elle ne s’est pas concrétisée
En combinant les éléments disponibles, la prédiction d’Amodei a bien déclenché une tendance à l’adoption accélérée des outils d’encodage par IA dans l’industrie, mais le calendrier « trois à six mois pour atteindre 90 % » s’avère trop optimiste. Des chercheurs indépendants estiment qu’en utilisant une définition raisonnable des opérations, cet objectif pourrait encore nécessiter neuf à quinze mois pour être atteint au sein d’Anthropic, sans même parler de l’ensemble de l’industrie.
Quant à la question plus fondamentale — l’IA peut-elle réellement « comprendre » ce que fait le code, et pas seulement générer des chaînes de caractères qui semblent plausibles — l’industrie n’a pas tranché. Comme l’a dit un ingénieur : « La percée pourrait arriver la semaine prochaine, ou dans dix ans. Je ne suis pas dans ce domaine, je ne peux pas prédire. »
Cet article sur la prédiction du CEO d’Anthropic selon laquelle l’IA gérera tout le code en un an — ingénieurs de l’industrie : « rien ne s’est produit » — apparaît pour la première fois sur Lianxin ABMedia.