Menurut ChainCatcher, Vitalik Buterin memposting sebuah artikel yang mendukung kepatuhan perusahaan AI Anthropic pada dua garis bawah etis “tidak mengembangkan senjata otonom sepenuhnya” dan “tidak melakukan pengawasan skala besar oleh Amerika Serikat”, memuji tekadnya untuk menghadapi tekanan pemerintah. Vitalik berpendapat bahwa di dunia yang ideal, aplikasi berisiko tinggi seperti itu akan terbatas pada tingkat akses LLM sumber terbuka (yaitu, tingkat di mana semua orang memiliki akses publik yang sama); Bahkan kemajuan 10% mengurangi risiko senjata otonom dan pelanggaran privasi, mendorong AI yang lebih aman.
Menurut berita sebelumnya, ancaman Pentagon baru-baru ini untuk memutuskan kerja sama dengan Anthropic dapat menyebabkan hilangnya kontrak senilai $200 juta karena Anthropic menolak untuk menyediakan teknologi AI tanpa campur tangan manusia untuk penggunaan militer.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Vitalik memuji Anthropic karena berpegang teguh pada garis dasar etika "tidak melakukan pengawasan sosial skala besar"
Menurut ChainCatcher, Vitalik Buterin memposting sebuah artikel yang mendukung kepatuhan perusahaan AI Anthropic pada dua garis bawah etis “tidak mengembangkan senjata otonom sepenuhnya” dan “tidak melakukan pengawasan skala besar oleh Amerika Serikat”, memuji tekadnya untuk menghadapi tekanan pemerintah. Vitalik berpendapat bahwa di dunia yang ideal, aplikasi berisiko tinggi seperti itu akan terbatas pada tingkat akses LLM sumber terbuka (yaitu, tingkat di mana semua orang memiliki akses publik yang sama); Bahkan kemajuan 10% mengurangi risiko senjata otonom dan pelanggaran privasi, mendorong AI yang lebih aman.
Menurut berita sebelumnya, ancaman Pentagon baru-baru ini untuk memutuskan kerja sama dengan Anthropic dapat menyebabkan hilangnya kontrak senilai $200 juta karena Anthropic menolak untuk menyediakan teknologi AI tanpa campur tangan manusia untuk penggunaan militer.