Les employés de Goldman Sachs à Hong Kong ont été suspendus de Claude, Anthropic admet : ils n'ont jamais pris en charge la région de HK, la régulation géographique de l'IA s'intensifie

L’édition britannique du « Financial Times » en exclusivité, Bloomberg le 29 avril a confirmé : le personnel de la succursale de Goldman Sachs à Hong Kong a perdu l’accès à Claude il y a quelques semaines, en raison d’une interprétation contractuelle stricte après consultation avec Anthropic, confirmant que les employés de Hong Kong ne peuvent pas utiliser les produits d’Anthropic ; un porte-parole d’Anthropic a également déclaré pour la première fois que le modèle Claude « n’a jamais été officiellement supporté à Hong Kong ».
(Ce n’est pas seulement une révision de la politique IT d’une banque — cela révèle les limites de service des fournisseurs d’IA dans le contexte des tensions géopolitiques entre la Chine et les États-Unis, ainsi que la réduction silencieuse des outils disponibles pour les institutions financières étrangères (y compris les départements de cryptomonnaie) à Hong Kong.)
(Précédent : La mythologie d’Anthropic a été si forte qu’une réunion d’urgence a été convoquée : Bessent, Powell ont rassemblé Citi, Goldman Sachs, Bank of America, JPMorgan Chase, les cinq grandes banques se concentrant sur les risques financiers)
(Contexte supplémentaire : Anthropic exige une vérification KYC en nom réel ! Certaines fonctionnalités de Claude nécessiteront le téléchargement de pièces d’identité, ce qui étend la pression réglementaire)

Les employés de la succursale de Goldman Sachs à Hong Kong ont, sans aucun avis officiel, silencieusement perdu un outil — Claude d’Anthropic.

Lundi 28 avril, le « Financial Times » a rapporté en exclusivité, et le lendemain, Bloomberg a confirmé : sur la plateforme d’IA interne de Goldman Sachs, Claude a été complètement désactivé pour les employés de Hong Kong, bloquant toutes les utilisations telles que l’assistance à la programmation ou l’analyse de fichiers. D’autres modèles principaux — Google Gemini, OpenAI ChatGPT — sont toujours opérationnels, seul Claude est absent.

Ce n’est pas un accident, c’est le résultat d’une interprétation contractuelle

L’incident ne résulte pas d’une panne technique, mais d’une décision de conformité d’entreprise. Après consultation avec Anthropic, Goldman Sachs a adopté une position d’interprétation contractuelle stricte, concluant que : les employés de Hong Kong ne relèvent pas du périmètre de service d’Anthropic, et ne peuvent donc utiliser aucun produit d’Anthropic.

La réponse officielle d’Anthropic est brève et claire — un porte-parole a indiqué au FT que le modèle Claude « n’a jamais été officiellement supporté à Hong Kong », refusant de faire d’autres commentaires.

Cette déclaration repose sur des bases concrètes : la liste officielle des régions supportées par Anthropic n’a jamais inclus Hong Kong, et Claude a longtemps été bloqué au niveau IP à Hong Kong. Cette restriction n’est pas dictée par la réglementation hongkongaise, mais résulte d’une politique proactive d’Anthropic.

Pourquoi Hong Kong n’est pas dans la liste de support ? Une logique en trois couches

La première couche concerne l’environnement juridique. Après l’entrée en vigueur de la « Loi sur la sécurité nationale » en 2020, le cadre juridique de Hong Kong a créé une incertitude quant à la souveraineté des données et aux obligations de conformité pour les entreprises technologiques américaines, poussant Anthropic à adopter une approche prudente.

La deuxième couche concerne les relations avec le gouvernement américain. Anthropic détient de nombreux contrats avec le gouvernement fédéral américain, notamment dans la défense et le renseignement, et doit aligner ses politiques de contrôle géopolitique avec le cadre d’exportation américain. Anthropic est également un promoteur public des restrictions à l’exportation de puces avancées américaines.

La troisième couche concerne les préoccupations de sécurité du modèle. Début 2026, Anthropic a publiquement accusé des laboratoires d’IA chinois, dont DeepSeek, d’avoir effectué plus de 16 millions d’interactions pour « distiller le modèle (model distillation) », extrayant systématiquement les capacités de Claude. Cet incident a renforcé la position d’Anthropic sur les restrictions d’accès dans les régions liées à la Chine.

Il est important de noter qu’en 2026, Anthropic a mis à jour ses conditions de service pour inclure une restriction mondiale de propriété : toute entreprise dont une entité chinoise détient directement ou indirectement plus de 50 % des actions, peu importe le pays d’établissement ou d’exploitation, se voit interdire d’utiliser Claude.

Goldman Sachs n’est ni le premier ni le dernier

Ce qui rend cet incident particulier, c’est que ce n’est pas Anthropic qui a volontairement retiré le service à Goldman Sachs, mais que Goldman Sachs a consulté et décidé de resserrer ses contrôles. Cela indique que les institutions financières étrangères ont commencé à intégrer la conformité géopolitique des outils d’IA dans leurs processus de gestion des risques.

La succursale de Goldman Sachs à Hong Kong est elle-même un partenaire de règlement pour plusieurs grandes institutions cryptographiques, un contrepartie OTC et un conseiller en conformité. Si ce type de contrôle devient une pratique standard dans le département des banques étrangères à Hong Kong, cela impactera non seulement les ingénieurs en technologie, mais aussi les activités dépendant fortement de l’IA telles que le trading d’actifs cryptographiques, la conception de produits structurés, la diligence raisonnable client, etc.

On ne sait pas encore si d’autres banques étrangères ont adopté des mesures similaires. Mais selon un rapport du SCMP, avec le renforcement de l’authentification d’identité (y compris KYC) par Anthropic, le nombre d’utilisateurs à Hong Kong accédant à Claude via VPN ou par des moyens clandestins est en augmentation — ce qui montre qu’il y a une demande, mais que la voie réglementaire est bloquée.

Les outils d’IA ont aussi des limites géopolitiques

Ce n’est pas la première fois qu’un outil d’IA est limité pour des raisons géopolitiques, mais la signification de cette situation est particulièrement claire : lorsque Claude d’Anthropic devient une partie intégrante des flux de travail des institutions financières, ses limites de service ne sont plus seulement une décision commerciale, mais une extension de la réalité géopolitique.

Dans un contexte où la régulation de l’IA entre la Chine et les États-Unis reste floue, « quel modèle d’IA pouvez-vous utiliser » devient une question de conformité, de localisation, et aussi de politique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler