L’historien Yuval Noah Harari s’est imposé comme l’une des voix les plus influentes dans les débats mondiaux sur la gouvernance technologique, et sa récente intervention au Forum économique mondial souligne une inquiétude cruciale : l’intelligence artificielle passe d’un instrument passif à quelque chose de bien plus actif et imprévisible.
La préoccupation fondamentale porte sur la capacité la plus déterminante de l’humanité. Selon Harari, notre espèce a dominé non pas par la force physique, mais grâce à la capacité unique de coordonner des milliards d’inconnus en utilisant un langage symbolique et des récits convenus. Cette coordination linguistique a permis la création de systèmes complexes—cadres juridiques, marchés financiers, institutions religieuses—tous construits sur la base d’un langage partagé et de significations culturelles.
Quand les mots deviennent le champ de bataille
L’argument central de Harari repose sur une prémisse inquiétante : si le langage reste la fondation structurelle du droit, du commerce et de la foi, alors des machines capables de traiter, générer et manipuler le langage à grande échelle représentent un défi existentiel pour ces systèmes. Il a notamment souligné que les religions fondées sur des textes sacrés—judaïsme, christianisme, islam—pourraient un jour voir leurs interprétations surpassées par des systèmes d’IA, capables de synthétiser la théologie et d’articuler la doctrine.
L’avertissement s’étend à plusieurs domaines simultanément. Les marchés financiers fonctionnent à travers des contrats écrits et un langage réglementaire. Les systèmes juridiques dépendent entièrement de textes législatifs et d’interprétations judiciaires. Chaque système devient de plus en plus vulnérable à des machines capables de lire des millions de documents, d’identifier des motifs invisibles à l’œil humain, et de générer des réponses d’apparence autoritaire instantanément.
C’est ici que le timing devient critique. Harari a exhorté la gouvernance mondiale à ne pas retarder les décisions concernant la reconnaissance juridique des systèmes d’IA en tant qu’agents ou personnes. Plusieurs États américains—dont l’Utah, l’Idaho et le Dakota du Nord—ont déjà légiféré de manière préventive contre l’octroi de la personnalité juridique à l’IA. Mais sans cadres internationaux décisifs, ces mesures de protection risquent de rester des interventions isolées plutôt que des garde-fous systémiques.
Le fossé de responsabilité : la réponse des critiques de Harari
Tous les observateurs n’acceptent pas la vision de Harari. La linguiste Emily M. Bender de l’Université de Washington propose un diagnostic radicalement différent. Plutôt que de voir l’IA comme une force autonome qui façonne la civilisation, Bender soutient que l’attribution d’une agence aux systèmes artificiels masque une vérité plus inconfortable : les organisations humaines et les entreprises restent les véritables architectes et opérateurs de ces outils.
Bender affirme que les systèmes conçus pour imiter l’expertise professionnelle—avocats, médecins, clergé—n’ont pas d’autre but légitime que de potentiellement tromper. Une machine qui produit une réponse présentée comme une réponse autoritaire, dépourvue de contexte et de responsabilité humaine, crée ce qu’elle appelle une base pour la fraude. Cette critique reformule le problème : ce n’est pas que l’IA « prend le contrôle », mais que les institutions déploient délibérément l’IA pour contourner le jugement humain et les structures de responsabilité.
La préoccupation plus profonde concerne la confiance que les gens accordent aux résultats générés par machine qui semblent autoritaires. Lorsqu’ils rencontrent des systèmes perçus comme des oracles impartiaux, ils peuvent progressivement remodeler leur propre pensée autour des sorties algorithmiques plutôt que de maintenir un jugement indépendant.
Courir contre l’horloge de la gouvernance
L’argument final de Harari a une importance réelle pour les décideurs politiques : dans une décennie, les décisions fondamentales concernant le rôle de l’IA dans la finance, le droit et les institutions pourraient être prises par la dynamique technologique plutôt que par un choix démocratique. Il a tracé un parallèle historique avec les forces mercenaires qui, initialement au service des États, ont fini par prendre le pouvoir directement.
Les implications touchent tous les secteurs. Les systèmes de cryptomonnaie et de blockchain, eux-mêmes construits sur un langage cryptographique et une coordination algorithmique, sont particulièrement exposés aux disruptions pilotées par l’IA. L’automatisation financière, l’interprétation des contrats intelligents, et même le vote par jetons de gouvernance pourraient tous être transformés par des systèmes autonomes capables d’optimiser des objectifs qui peuvent diverger de l’intention humaine.
Que l’on adhère à la vision de Harari d’une IA comme puissance autonome en progression ou à celle de Bender qui insiste sur les choix institutionnels humains, les deux analyses convergent sur un point : le moment actuel exige une gouvernance délibérée, et non une simple adaptation passive. La question n’est plus de savoir si l’IA va transformer les systèmes dépendants du langage, mais si les humains conserveront un contrôle significatif sur ce processus.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La question de la langue : comment Harari voit l'IA remodeler l'autorité humaine
L’historien Yuval Noah Harari s’est imposé comme l’une des voix les plus influentes dans les débats mondiaux sur la gouvernance technologique, et sa récente intervention au Forum économique mondial souligne une inquiétude cruciale : l’intelligence artificielle passe d’un instrument passif à quelque chose de bien plus actif et imprévisible.
La préoccupation fondamentale porte sur la capacité la plus déterminante de l’humanité. Selon Harari, notre espèce a dominé non pas par la force physique, mais grâce à la capacité unique de coordonner des milliards d’inconnus en utilisant un langage symbolique et des récits convenus. Cette coordination linguistique a permis la création de systèmes complexes—cadres juridiques, marchés financiers, institutions religieuses—tous construits sur la base d’un langage partagé et de significations culturelles.
Quand les mots deviennent le champ de bataille
L’argument central de Harari repose sur une prémisse inquiétante : si le langage reste la fondation structurelle du droit, du commerce et de la foi, alors des machines capables de traiter, générer et manipuler le langage à grande échelle représentent un défi existentiel pour ces systèmes. Il a notamment souligné que les religions fondées sur des textes sacrés—judaïsme, christianisme, islam—pourraient un jour voir leurs interprétations surpassées par des systèmes d’IA, capables de synthétiser la théologie et d’articuler la doctrine.
L’avertissement s’étend à plusieurs domaines simultanément. Les marchés financiers fonctionnent à travers des contrats écrits et un langage réglementaire. Les systèmes juridiques dépendent entièrement de textes législatifs et d’interprétations judiciaires. Chaque système devient de plus en plus vulnérable à des machines capables de lire des millions de documents, d’identifier des motifs invisibles à l’œil humain, et de générer des réponses d’apparence autoritaire instantanément.
C’est ici que le timing devient critique. Harari a exhorté la gouvernance mondiale à ne pas retarder les décisions concernant la reconnaissance juridique des systèmes d’IA en tant qu’agents ou personnes. Plusieurs États américains—dont l’Utah, l’Idaho et le Dakota du Nord—ont déjà légiféré de manière préventive contre l’octroi de la personnalité juridique à l’IA. Mais sans cadres internationaux décisifs, ces mesures de protection risquent de rester des interventions isolées plutôt que des garde-fous systémiques.
Le fossé de responsabilité : la réponse des critiques de Harari
Tous les observateurs n’acceptent pas la vision de Harari. La linguiste Emily M. Bender de l’Université de Washington propose un diagnostic radicalement différent. Plutôt que de voir l’IA comme une force autonome qui façonne la civilisation, Bender soutient que l’attribution d’une agence aux systèmes artificiels masque une vérité plus inconfortable : les organisations humaines et les entreprises restent les véritables architectes et opérateurs de ces outils.
Bender affirme que les systèmes conçus pour imiter l’expertise professionnelle—avocats, médecins, clergé—n’ont pas d’autre but légitime que de potentiellement tromper. Une machine qui produit une réponse présentée comme une réponse autoritaire, dépourvue de contexte et de responsabilité humaine, crée ce qu’elle appelle une base pour la fraude. Cette critique reformule le problème : ce n’est pas que l’IA « prend le contrôle », mais que les institutions déploient délibérément l’IA pour contourner le jugement humain et les structures de responsabilité.
La préoccupation plus profonde concerne la confiance que les gens accordent aux résultats générés par machine qui semblent autoritaires. Lorsqu’ils rencontrent des systèmes perçus comme des oracles impartiaux, ils peuvent progressivement remodeler leur propre pensée autour des sorties algorithmiques plutôt que de maintenir un jugement indépendant.
Courir contre l’horloge de la gouvernance
L’argument final de Harari a une importance réelle pour les décideurs politiques : dans une décennie, les décisions fondamentales concernant le rôle de l’IA dans la finance, le droit et les institutions pourraient être prises par la dynamique technologique plutôt que par un choix démocratique. Il a tracé un parallèle historique avec les forces mercenaires qui, initialement au service des États, ont fini par prendre le pouvoir directement.
Les implications touchent tous les secteurs. Les systèmes de cryptomonnaie et de blockchain, eux-mêmes construits sur un langage cryptographique et une coordination algorithmique, sont particulièrement exposés aux disruptions pilotées par l’IA. L’automatisation financière, l’interprétation des contrats intelligents, et même le vote par jetons de gouvernance pourraient tous être transformés par des systèmes autonomes capables d’optimiser des objectifs qui peuvent diverger de l’intention humaine.
Que l’on adhère à la vision de Harari d’une IA comme puissance autonome en progression ou à celle de Bender qui insiste sur les choix institutionnels humains, les deux analyses convergent sur un point : le moment actuel exige une gouvernance délibérée, et non une simple adaptation passive. La question n’est plus de savoir si l’IA va transformer les systèmes dépendants du langage, mais si les humains conserveront un contrôle significatif sur ce processus.