2月25日、Vitalik ButerinはAI企業Anthropicを支持し、「完全自律兵器の開発禁止」と「米国による大規模監視の禁止」という二つの倫理的境界線を守ることを称賛し、政府の圧力に対する同社の決意を賞賛した。Vitalikは理想的な世界では、この種の高リスクな応用はオープンソースの大規模言語モデル(LLM)へのアクセスに限定されるべきだと考えている。たとえ10%の進歩でも、自律兵器やプライバシー侵害のリスクを減らし、AIの安全な発展を促進できると述べている。以前の報道によると、米国国防総省は最近、Anthropicとの協力を断つよう脅し、2億ドルの契約が失われる可能性がある。これは、Anthropicが軍事用途において人間の介入なしに動作するAI技術の提供を拒否したためである。
Vitalikは、AI企業Anthropicが「大規模な社会的監視を行わない」という倫理的な底線を守っていることを称賛した。
2月25日、Vitalik ButerinはAI企業Anthropicを支持し、「完全自律兵器の開発禁止」と「米国による大規模監視の禁止」という二つの倫理的境界線を守ることを称賛し、政府の圧力に対する同社の決意を賞賛した。Vitalikは理想的な世界では、この種の高リスクな応用はオープンソースの大規模言語モデル(LLM)へのアクセスに限定されるべきだと考えている。たとえ10%の進歩でも、自律兵器やプライバシー侵害のリスクを減らし、AIの安全な発展を促進できると述べている。以前の報道によると、米国国防総省は最近、Anthropicとの協力を断つよう脅し、2億ドルの契約が失われる可能性がある。これは、Anthropicが軍事用途において人間の介入なしに動作するAI技術の提供を拒否したためである。