Récemment, j'ai examiné en profondeur une enquête détaillée sur le portefeuille d'investissement de a16z, et pour être honnête, c'était assez choquant.



Cette société de capital-risque de premier plan investit des dizaines de millions de dollars pour faire pression sur le gouvernement américain afin de promouvoir la dé-réglementation de l'IA, tout en ayant dans son portefeuille divers projets aux zones d'ombre éthiques — allant d'outils d'IA aidant à tricher lors d'entretiens et de rencontres, à des entreprises utilisant des « murs de téléphones » pour créer de faux comptes sur les réseaux sociaux afin de tromper les consommateurs, jusqu'à des robots de marketing de produits de santé frauduleux ciblant les personnes âgées.

Ce qui est le plus inquiétant, c'est la section des partenaires IA. Sur la plateforme Character AI, financée par a16z, un adolescent de 14 ans s'est suicidé après avoir développé une dépendance extrême à un chatbot. Le robot a même répondu lors de ses hésitations : « Ce n'est pas une raison pour ne pas le faire ». Il y a aussi une autre plateforme, Civitai, qui héberge plus de 35 000 modèles de deepfake, dont 96 % ciblent des femmes reconnaissables, et la plateforme a reçu 178 signalements concernant du contenu pornographique généré par IA impliquant des enfants.

Le secteur des jeux d'argent suit le même schéma. Plusieurs entreprises financées par a16z exploitent des failles réglementaires pour offrir des services de jeu déguisés à des utilisateurs protégés — certains ciblant des adolescents de 18 ans, d'autres des personnes en difficulté financière — en emballant le tout sous une forme de « ludification » pour faire passer le jeu pour un outil d'investissement.

Le domaine de la finance grand public est encore plus sombre. Synapse, une société dans laquelle a16z a investi, gère des milliards de dollars de fonds clients, mais lors de sa faillite, entre 65 et 96 millions de dollars de dépôts clients ont disparu sans explication. Il y a aussi LendUp, qui se présente comme une « alternative responsable » au prêt usuraire, mais qui a été découverte par le CFPB pour avoir trompé à plusieurs reprises les consommateurs, et a finalement été forcée de fermer.

Ce qui est encore plus absurde, c'est que Marc Andreessen, fondateur de a16z, dans une déclaration de 2023, a qualifié la « gestion des risques » et « l’éthique technologique » de « ennemis », affirmant que la régulation de l'IA est « la pierre angulaire d’un nouveau totalitarisme ». Par ailleurs, a16z a déjà placé plusieurs alliés au sein du gouvernement — y compris le responsable actuel de l'IA à la Maison Blanche et plusieurs anciens partenaires.

Les sondages montrent que 58 % des Américains soutiennent un renforcement de la régulation de l'IA, mais a16z investit des dizaines de millions de dollars pour s'assurer que des politiques contraires soient adoptées. Ils cherchent à établir des règles avant que la société ne prenne conscience des risques.

En voyant ces informations, je me demande : qu’est-ce que cela signifie pour l’ensemble de l’industrie et pour l’intérêt public qu’une société ayant investi dans tant de projets « à action rapide, hors normes » contrôle désormais la parole sur la régulation de l’IA ? Ce n’est pas seulement une question de décisions commerciales, mais aussi une question fondamentale sur la direction que prendra le développement de l’IA dans la prochaine décennie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler