ChainCatcherのニュースによると、Vitalik ButerinはAI企業Anthropicを支持し、「完全自律兵器の開発禁止」と「米国による大規模監視の禁止」という二つの倫理的ラインを堅持することを投稿し、政府の圧力に対する決意を称賛しました。Vitalikは、理想的な世界では、この種の高リスクな応用はオープンソースのLLMアクセスレベルに限定されるべきだと考えています(つまり、誰もが平等に公開アクセスできるレベル)。たとえわずか10%の進歩でも、自律兵器やプライバシー侵害のリスクを減らし、AIの安全な発展を促進できると述べています。以前の情報によると、米国防総省は最近、Anthropicとの協力を断つよう脅しており、これにより2億ドルの契約が失われる可能性があるとのことです。これは、Anthropicが軍事用途において人間の介入なしにAI技術を提供することを拒否したためです。
ビタリックはAnthropicが「大規模な社会的監視を行わない」という倫理的ラインを堅持していることを称賛した
ChainCatcherのニュースによると、Vitalik ButerinはAI企業Anthropicを支持し、「完全自律兵器の開発禁止」と「米国による大規模監視の禁止」という二つの倫理的ラインを堅持することを投稿し、政府の圧力に対する決意を称賛しました。Vitalikは、理想的な世界では、この種の高リスクな応用はオープンソースのLLMアクセスレベルに限定されるべきだと考えています(つまり、誰もが平等に公開アクセスできるレベル)。たとえわずか10%の進歩でも、自律兵器やプライバシー侵害のリスクを減らし、AIの安全な発展を促進できると述べています。
以前の情報によると、米国防総省は最近、Anthropicとの協力を断つよう脅しており、これにより2億ドルの契約が失われる可能性があるとのことです。これは、Anthropicが軍事用途において人間の介入なしにAI技術を提供することを拒否したためです。