Selon ChainCatcher, Vitalik Buterin a publié un article soutenant l’adhésion de la société d’IA Anthropic aux deux principes éthiques : « ne pas développer d’armes entièrement autonomes » et « ne pas mener une surveillance à grande échelle par les États-Unis », louant sa détermination à faire face à la pression gouvernementale. Vitalik soutient que dans un monde idéal, de telles applications à haut risque seraient limitées au niveau d’accès aux LLM open source (c’est-à-dire le niveau où toutes les personnes ont un accès public égal) ; Même une avancée de 10 % réduit le risque d’armes autonomes et de violations de la vie privée, ce qui favorise une IA plus sûre.
Selon des informations précédentes, la récente menace du Pentagone de couper la coopération avec Anthropic pourrait entraîner la perte de 200 millions de dollars de contrats car Anthropic refuse de fournir une technologie d’IA sans intervention humaine à des fins militaires.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Vitalik loue Anthropic pour son respect de la ligne éthique de « ne pas effectuer de surveillance sociale à grande échelle »
Selon ChainCatcher, Vitalik Buterin a publié un article soutenant l’adhésion de la société d’IA Anthropic aux deux principes éthiques : « ne pas développer d’armes entièrement autonomes » et « ne pas mener une surveillance à grande échelle par les États-Unis », louant sa détermination à faire face à la pression gouvernementale. Vitalik soutient que dans un monde idéal, de telles applications à haut risque seraient limitées au niveau d’accès aux LLM open source (c’est-à-dire le niveau où toutes les personnes ont un accès public égal) ; Même une avancée de 10 % réduit le risque d’armes autonomes et de violations de la vie privée, ce qui favorise une IA plus sûre.
Selon des informations précédentes, la récente menace du Pentagone de couper la coopération avec Anthropic pourrait entraîner la perte de 200 millions de dollars de contrats car Anthropic refuse de fournir une technologie d’IA sans intervention humaine à des fins militaires.