Le gouvernement Trump publie un plan visant à lutter contre le raffinage de l’IA, accusant des entreprises chinoises de voler systématiquement les capacités des modèles

白宮打擊AI提煉計劃

Le 23 avril, Michael J. Kratsios (Michael J. Kratsios), conseiller du président auprès du Bureau de la politique technologique de la Maison-Blanche (OSTP), a publié une déclaration officielle, indiquant que l’administration Trump a connaissance de l’information selon laquelle des entités étrangères (principalement basées en Chine) mènent volontairement des actions visant de grandes entreprises américaines d’intelligence artificielle, en extrayant systématiquement les capacités des modèles d’IA américains via « des dizaines de milliers de comptes d’agents » et des systèmes de techniques de jailbreaking, tout en publiant simultanément quatre mesures de riposte.

Techniques d’attaque et avertissements de sécurité confirmés par l’OSTP de la Maison-Blanche

Selon la déclaration officielle de l’OSTP de la Maison-Blanche, les méthodes d’attaque employées par des entités étrangères incluent deux volets : utiliser « des dizaines de milliers de comptes d’agents » pour échapper à la détection, et « tirer parti de techniques de jailbreaking pour divulguer des informations exclusives ». Le texte original de la déclaration de l’OSTP indique : « Ces systèmes d’actions coordonnées extraient systématiquement des capacités des modèles d’intelligence artificielle américains, en exploitant l’expertise et l’innovation américaines. »

Dans sa déclaration, Kratsios indique que les modèles développés par ce type d’activités de raffinement « ne peuvent pas reproduire entièrement les performances du modèle original », mais « permettent néanmoins aux fournisseurs étrangers de lancer des produits qui, dans certains tests de référence, semblent tout à fait comparables, à un coût extrêmement faible ». La Maison-Blanche avertit en outre que les modèles développés par raffinement pourraient manquer d’accords de sécurité, et ne seraient plus « neutres et à la recherche de la vérité ».

Anthropic accuse trois entreprises chinoises d’IA : DeepSeek, Moonshot, MiniMax

D’après la déclaration officielle publiée par Anthropic en février 2026, l’entreprise accuse les entreprises d’IA chinoises DeepSeek, Moonshot et MiniMax de lancer une attaque de raffinement contre son modèle Claude en utilisant environ 24 000 comptes frauduleux, générant plus de 16 millions de demandes de transactions. Selon l’annonce officielle d’Anthropic, les capacités prétendument extraites incluent :

· Capacités de raisonnement intelligent

· Génération de code et analyse de données

· Tâches de notation basées sur des critères d’évaluation

· Fonctions de vision par ordinateur

L’administration Trump annonce quatre mesures de riposte

Selon la déclaration officielle de l’OSTP de la Maison-Blanche, l’administration Trump prévoit de répondre à la menace de raffinage de l’IA étrangère au moyen des quatre mesures suivantes : partager des renseignements sur d’éventuelles attaques à grande échelle avec les entreprises américaines d’IA ; aider le secteur privé à mettre en place des mécanismes de coordination de riposte plus efficaces ; coopérer avec le secteur privé pour établir une défense technique solide ; et explorer des mesures relatives à la « tenue des acteurs étrangers responsables ». La déclaration ne divulgue pas de calendrier précis d’actions juridiques ni les entités visées par des sanctions.

Questions fréquentes

Quels moyens précis l’« attaque de raffinement de l’IA » évoquée dans la déclaration de l’OSTP de la Maison-Blanche utilise-t-elle ?

Selon la déclaration officielle de l’OSTP de la Maison-Blanche, les moyens d’attaque comprennent deux catégories : utiliser « des dizaines de milliers de comptes d’agents » pour échapper aux mécanismes de détection des entreprises américaines d’IA, et tirer parti de techniques de jailbreaking pour contourner les restrictions de sécurité du modèle afin de divulguer des informations exclusives, dans le but d’extraire systématiquement les capacités fondamentales des modèles d’IA américains.

Quelles sont les trois entreprises chinoises visées par les accusations d’Anthropic, et de quoi s’agit-il exactement ?

D’après la déclaration officielle publiée par Anthropic en février 2026, les trois entreprises accusées sont DeepSeek, Moonshot et MiniMax ; elles seraient accusées d’avoir lancé une attaque de raffinement contre le modèle Claude en utilisant environ 24 000 comptes frauduleux, ce qui a généré plus de 16 millions de demandes de transactions. Les capacités prétendument extraites incluent plusieurs domaines, notamment le raisonnement intelligent, la génération de code et la vision par ordinateur.

L’administration Trump a-t-elle déjà engagé des actions juridiques concrètes contre les entreprises chinoises concernées ?

Selon la déclaration officielle de l’OSTP de la Maison-Blanche, à la date de publication de la déclaration, le gouvernement est en train de « rechercher des mesures visant à tenir les acteurs étrangers responsables », et la déclaration ne divulgue aucune décision de sanction concrète exécutée ni aucune action en poursuites judiciaires.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Anthropic met en place des garanties électorales pour Claude avant les élections législatives de mi-mandat de 2026

Anthropic a annoncé vendredi une série de mesures d’intégrité électorale conçues pour empêcher son chatbot d’IA Claude d’être utilisé à des fins de militarisation afin de diffuser de la désinformation ou de manipuler les électeurs avant les élections législatives américaines de mi-mandat de 2026 et d’autres grands scrutins dans le monde cette année. Basée à San Francisco,

CryptoFrontierIl y a 5h

DeepRoute.ai système d’aide à la conduite avancée dépasse 300 000 véhicules déployés : objectif 2026 1 000 000 de flotte de véhicules urbains NOA

DeepRoute.ai annonce avoir déployé plus de 300 000 véhicules de son système avancé d’aide à la conduite en Chine, et avoir permis d’éviter plus de 180 000 incidents potentiels au cours de l’année écoulée. L’objectif pour 2026 est d’atteindre une flotte de 1 million de véhicules pour le NOA en ville, avec un taux d’utilisation supérieur à 50 %, considéré comme un élément clé de la commercialisation à grande échelle des Robotaxi. Cette initiative montre que la conduite autonome en Chine est désormais utilisée de manière courante, tout en traçant une voie distincte de l’approche d’intégration verticale aux États-Unis, ce qui affecte le calendrier des chaînes d’approvisionnement en Asie-Pacifique.

ChainNewsAbmediaIl y a 6h

DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI

Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts.

GateNewsIl y a 11h

Le juge rejette les allégations de fraude dans la plainte d’Elon Musk contre OpenAI ; l’affaire progresse vers un procès avec deux allégations restantes

Message de Gate News, 24 avril — Un juge fédéral a rejeté les allégations de fraude dans la plainte d’Elon Musk contre OpenAI, Sam Altman, Greg Brockman et Microsoft, ouvrant la voie à la poursuite de l’affaire devant le tribunal sur deux allégations restantes : violation de la confiance à but caritatif et enrichissement injustifié. États-Unis.

GateNewsIl y a 14h

Le PDG d'OpenAI, Sam Altman, s'excuse d'avoir omis de signaler à la police le compte banni du tireur de l'école

Message de Gate News, 25 avril — Le PDG d'OpenAI, Sam Altman, a présenté ses excuses à la communauté de Tamborine, au Canada, pour l'incapacité de l'entreprise à prévenir la police au sujet d'un compte banni lié à Jesse Van Rootselaar, qui a tué huit personnes dans une école en février avant de mettre fin à ses jours. OpenAI

GateNewsIl y a 15h

Les Émirats arabes unis annoncent une transition vers un modèle de gouvernement basé sur l’IA au cours des deux prochaines années

Son Altesse Cheikh Mohammed bin Rashid Al Maktoum a déclaré que l’objectif était que 50% des secteurs gouvernementaux fonctionnent grâce à une IA agentique autonome. La transition comprendra également la formation des employés fédéraux pour « maîtriser l’IA », et sera supervisée par Cheikh Mansour bin Zayed. Points clés :

CoinpediaIl y a 15h
Commentaire
0/400
Aucun commentaire