Según ChainCatcher, Vitalik Buterin publicó un artículo apoyando la adhesión de la empresa de IA Anthropic a las dos líneas éticas de “no desarrollar armas totalmente autónomas” y “no realizar vigilancia a gran escala por parte de Estados Unidos”, elogiando su determinación para enfrentar la presión gubernamental. Vitalik sostiene que, en un mundo ideal, estas aplicaciones de alto riesgo estarían limitadas al nivel de acceso a LLM de código abierto (es decir, el nivel en el que todas las personas tienen acceso público igual); Incluso un avance del 10% reduce el riesgo de violaciones de armas autónomas y privacidad, lo que impulsa una IA más segura.
Según noticias anteriores, la reciente amenaza del Pentágono de cortar la cooperación con Anthropic podría suponer la pérdida de 200 millones de dólares en contratos porque Anthropic se niega a proporcionar tecnología de IA sin intervención humana para uso militar.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Vitalik elogia a Anthropic por mantener la línea ética de "no realizar vigilancia social a gran escala"
Según ChainCatcher, Vitalik Buterin publicó un artículo apoyando la adhesión de la empresa de IA Anthropic a las dos líneas éticas de “no desarrollar armas totalmente autónomas” y “no realizar vigilancia a gran escala por parte de Estados Unidos”, elogiando su determinación para enfrentar la presión gubernamental. Vitalik sostiene que, en un mundo ideal, estas aplicaciones de alto riesgo estarían limitadas al nivel de acceso a LLM de código abierto (es decir, el nivel en el que todas las personas tienen acceso público igual); Incluso un avance del 10% reduce el riesgo de violaciones de armas autónomas y privacidad, lo que impulsa una IA más segura.
Según noticias anteriores, la reciente amenaza del Pentágono de cortar la cooperación con Anthropic podría suponer la pérdida de 200 millones de dólares en contratos porque Anthropic se niega a proporcionar tecnología de IA sin intervención humana para uso militar.