El 25 de febrero, Vitalik Buterin expresó su apoyo a la compañía de IA Anthropic por mantener dos líneas éticas: “no desarrollar armas completamente autónomas” y “no realizar vigilancia masiva en Estados Unidos”, elogiando su determinación frente a la presión gubernamental. Vitalik cree que en un mundo ideal, estas aplicaciones de alto riesgo deberían limitarse al nivel de acceso de modelos de lenguaje de código abierto; incluso un avance del 10% podría reducir los riesgos de armas autónomas y violaciones de privacidad, promoviendo un desarrollo más seguro de la IA. Anteriormente, se informó que el Pentágono amenazó con cortar su colaboración con Anthropic, lo que podría resultar en la pérdida de un contrato de 200 millones de dólares, ya que Anthropic se negó a proporcionar tecnología de IA sin intervención humana para fines militares.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Vitalik elogia a la empresa de IA Anthropic por mantener la línea ética de «no realizar vigilancia social a gran escala»
El 25 de febrero, Vitalik Buterin expresó su apoyo a la compañía de IA Anthropic por mantener dos líneas éticas: “no desarrollar armas completamente autónomas” y “no realizar vigilancia masiva en Estados Unidos”, elogiando su determinación frente a la presión gubernamental. Vitalik cree que en un mundo ideal, estas aplicaciones de alto riesgo deberían limitarse al nivel de acceso de modelos de lenguaje de código abierto; incluso un avance del 10% podría reducir los riesgos de armas autónomas y violaciones de privacidad, promoviendo un desarrollo más seguro de la IA. Anteriormente, se informó que el Pentágono amenazó con cortar su colaboración con Anthropic, lo que podría resultar en la pérdida de un contrato de 200 millones de dólares, ya que Anthropic se negó a proporcionar tecnología de IA sin intervención humana para fines militares.