Le 25 février, Vitalik Buterin a publié un message soutenant l’entreprise d’IA Anthropic pour son respect de deux lignes éthiques : « ne pas développer d’armes entièrement autonomes » et « ne pas effectuer de surveillance massive aux États-Unis », saluant sa détermination face à la pression gouvernementale. Vitalik pense qu’en monde idéal, ce type d’applications à haut risque devrait se limiter à l’accès aux modèles de langage open source ; même une avancée de 10 % pourrait réduire les risques liés aux armes autonomes et à l’intrusion dans la vie privée, favorisant un développement plus sûr de l’IA. Selon des sources, le Pentagone aurait récemment menacé de couper sa coopération avec Anthropic, ce qui pourrait entraîner la perte d’un contrat de 200 millions de dollars, car Anthropic refuse de fournir une technologie d’IA sans intervention humaine pour un usage militaire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Vitalik loue la société d'IA Anthropic pour son respect de la limite éthique « ne pas effectuer de surveillance sociale à grande échelle »
Le 25 février, Vitalik Buterin a publié un message soutenant l’entreprise d’IA Anthropic pour son respect de deux lignes éthiques : « ne pas développer d’armes entièrement autonomes » et « ne pas effectuer de surveillance massive aux États-Unis », saluant sa détermination face à la pression gouvernementale. Vitalik pense qu’en monde idéal, ce type d’applications à haut risque devrait se limiter à l’accès aux modèles de langage open source ; même une avancée de 10 % pourrait réduire les risques liés aux armes autonomes et à l’intrusion dans la vie privée, favorisant un développement plus sûr de l’IA. Selon des sources, le Pentagone aurait récemment menacé de couper sa coopération avec Anthropic, ce qui pourrait entraîner la perte d’un contrat de 200 millions de dollars, car Anthropic refuse de fournir une technologie d’IA sans intervention humaine pour un usage militaire.